首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   84篇
  免费   30篇
  国内免费   1篇
化学   7篇
力学   1篇
综合类   19篇
数学   7篇
物理学   81篇
  2024年   1篇
  2023年   5篇
  2022年   1篇
  2021年   1篇
  2020年   4篇
  2019年   3篇
  2018年   3篇
  2017年   1篇
  2016年   8篇
  2015年   2篇
  2014年   11篇
  2013年   2篇
  2011年   4篇
  2010年   5篇
  2009年   2篇
  2008年   8篇
  2007年   4篇
  2006年   5篇
  2005年   7篇
  2004年   6篇
  2003年   1篇
  2002年   5篇
  2001年   3篇
  1998年   1篇
  1997年   6篇
  1996年   3篇
  1995年   4篇
  1992年   1篇
  1990年   1篇
  1989年   2篇
  1988年   1篇
  1987年   2篇
  1986年   1篇
  1985年   1篇
排序方式: 共有115条查询结果,搜索用时 171 毫秒
111.
This article focuses on the systematic design of a segment database which has been used to support a time-domain speech synthesis system for the Greek language. Thus, a methodology is presented for the generation of a corpus containing all possible instances of the segments for the specific language. Issues such as the phonetic coverage, the sentence selection and iterative evaluation techniques employing custom-built tools, are examined. Emphasis is placed on the comparison of the process-derived corpus to naturally-occurring corpora with respect to their suitability for use in time-domain speech synthesis. The proposed methodology generates a corpus characterised by a near-minimal size and which provides a complete coverage of the Greek language. Furthermore, within this corpus, the distribution of segmental units is similar to that of natural corpora, allowing for the extraction of multiple units in the case of the most frequently-occurring segments. The corpus creation algorithm incorporates mechanisms that enable the fine-tuning of the segment database's language-dependent characteristics and thus assists in the generation of high-quality text-to-speech synthesis.  相似文献   
112.
基于主成分分析的汉语连续语音切分算法   总被引:1,自引:0,他引:1       下载免费PDF全文
张永锋  杨影  肖莹莹 《应用声学》2011,30(5):366-369
连续语音切分是汉语连续语音识别中的一项重要技术。本文将通常用于图像处理的主成分分析(PCA)方法引入汉语连续语音切分领域,目的是通过PCA,降低语音帧之间的频谱相关性。再利用相邻语音帧特征构成的三维子空间的大小,实现连续语音切分,取得了不错的切分效果。  相似文献   
113.
如何从带噪语音信号中恢复出干净的语音信号一直都是信号处理领域的热点问题。近年来研究者相继提出了一些基于字典学习和稀疏表示的单通道语音增强算法,这些算法利用语音信号在时频域上的稀疏特性,通过学习训练数据样本的结构特征和规律来构造相应的字典,再对带噪语音信号进行投影以估计出干净语音信号。针对训练样本与测试数据不匹配的情况,有监督类的非负矩阵分解方法与基于统计模型的传统语音增强方法相结合,在增强阶段对语音字典和噪声字典进行更新,从而估计出干净语音信号。本文首先介绍了单通道情况下语音增强的信号模型,然后对4种典型的增强方法进行了阐述,最后对未来可能的研究热点进行了展望。  相似文献   
114.
为了解决含噪语句分割问题,也为了解决某些低信噪比环境下传统气导语句分割算法分割效果差、分割准确度低且算法自适应性弱等问题,提出一种基于骨导语音自适应的分段双门限语音分割方法。将骨导语音和气导语音同步采集,获取抗噪性能更好的骨导语音,然后在融合过零率与短时能量中引入随机动态阈值的自适应方法进行端点检测,最后利用分段双门限和语音聚类等手段实现语音分割,提高语音分割算法的鲁棒性。通过实验验证了所提算法的有效性和可行性,同时与其他语音分割算法进行了对比,证明该文所提分割算法精度更高,效果更好。  相似文献   
115.
马震 《应用声学》2017,36(1):48-53
不同语音帧的激励信号复杂性不同,所以采用相同个数的脉冲作为激励信号并不合理。针对这一点,提出了个数可变脉冲线性预测编码算法。该算法不固定脉冲个数,而是根据激励信号的复杂度而确定。个数可变脉冲线性预测编码的目的是用尽量少的脉冲数来满足误差约束,这可以看作一个稀疏表示问题。进而,给出了具体的脉冲搜索算法以及个数可变脉冲线性预测编码方案。实验结果发现增加脉冲可以减少误差,但是前面搜索出的脉冲对误差的贡献要大于后搜索出的脉冲。与G.723.1和G.729比较发现,个数可变脉冲线性预测编码可以在约4.2 kbps的编码速率下获得优于G.723.1的合成语音,但略差于G.729。本文算法的编码时间较长,是下一步需要解决的问题。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号